De ce elimină YouTube videouri și când decide să facă asta
Pe măsură ce YouTube a devenit tot mai mare, așa au crescut și problemele cu tipul de conținut încărcat de utilizatori pe platformă. Nu mai e de mirare că poți găsi aproape orice, de la hate speeh la vulgaritate și violență. YouTube oferă acum câteva statistici cu privire la ce mai elimină și de ce.
YouTube susține că a eliminat conținut dăunător încă de la început. Dar a accelerat ritmul în ultimii ani, în principal prin actualizarea regulilor pe care comunitatea trebuie să le respecte, îmbunătățirea instrucțiunilor, introducerea sistemelor bazate pe algoritmi de inteligență artificială, dezvoltarea de echipe care să analizeze conținutul sau de programe dedicate în parteneriat cu diferite organizații. De exemplu, în 2018, YouTube a făcut peste 30 de schimbări în politicile pentru platformă.
În 2019, în al doilea trimestru (între aprilie și iunie), YouTube a eliminat peste patru milioane de canale și nouă milioane de videouri pe motiv că au încălcat regulile comunității.
Conform companiei, obiectivul este de a asigura libertatea de expresie și, în același timp, protejarea și susținerea comunității de pe YouTube.
Videourile cu provocări, urmărite mai strict de YouTube
Un moment cheie a fost la începutul lui 2019, când YouTube a publicat câteva detalii legate de când consideră că videourile de tip provocare sunt prea periculoase. Acestea au luat amploare în ultimii ani și din cauza factorului de viralizare.
O schimbare fundamentală a fost actualizarea adusă politicilor privind instigarea la ură (hate speech). Modificarea regulilor a durat câteva luni, iar noul set de politici a fost lansat la începutul lui iunie 2019.
Impactul noului set de politici privind instigarea la ură s-a văzut în trimestru al doilea din 2019:
- Peste 100.000 videouri eliminate (creștere de cinci ori)
- Numărul de canale șterse pe motiv de „hate speech” a crescut tot de cinci ori, la peste 17.000
- Numărul de comentarii eliminate de pe YouTube aproape s-a dublat în aceeași perioadă, la peste 500 milioane, în parte ștergerii de comentarii de tip „hate speech”
YouTube susține că, în efortul de eliminare care încalcă reguli, un aspect important este ca videourile de acest fel să nu fie vizionate pe scară largă sau chiar deloc, înainte de a fi șterse. Aici elementul critic este sistemul automatizat de alertare, care a ajutat la detectarea și evaluarea a conținutului înainte de a fi semnalizat de comunitate.
În consecință, peste 80% dintre conținutul semnalizat de sistemele automatizare a fost eliminat înainte de a primi o singură vizualizare, în al doilea trimestru al lui 2019.
Anticiparea problemelor e un alt pilon al acestei strategii. Astfel, din 2018, există Intelligence Desk. În esență, e o echipă care monitorizează știrile, social media și rapoartele utilizatorilor pentru a detecta trenduri în zona conținutului inadecvat. Google a angajat peste 10.000 de oameni pentru detectarea, analiza și eliminarea conținutului care încalcă politicile YouTube.